검색결과
-
안드로이드에서 인기를 끄는 '서클 투 서치' 기능, 아이폰에도 출시 예정안드로이드 스마트폰에서 인기를 끄는 '서클 투 서치' 기능이 아이폰에도 출시될 가능성이 높아졌다. 'The Mac Observer'는 최근 구글 크롬 iOS 버전에 '렌즈 서클 투 서치' 플래그가 추가된 것을 발견했다. 서클 투 서치는 화면 상의 이미지나 텍스트를 동그랗게 그리거나 지그재그 그려 검색하는 기능으로, 구글 렌즈 기술을 활용한다. 아이폰 버전은 안드로이드 버전처럼 시스템 전체 연동은 어려울 것으로 예상된다. 하지만 구글 크롬을 통해 일부 기능을 제공할 수 있을 것으로 보인다. 현재 아이폰에서는 스크린샷을 통해 구글 렌즈를 사용하여 검색할 수 있지만, 서클 투 서치 기능만큼 편리하지는 않다. 구글은 서클 투 서치 기능이 이미 1억 대의 안드로이드 기기에 적용되었으며, 올해 말까지 1억 대 더 추가될 것으로 예상하고 있다. 또한 데스크톱용 구글 크롬에도 서클 투 서치 기능이 적용될 예정이다. 아이폰은 서클 투 서치 기능과 유사한 자체 기능을 개발할 가능성이 높다. 애플은 6월 10일부터 개최되는 WWDC 2024에서 인공지능 관련 소프트웨어를 다수 발표할 것으로 예상된다. 아이폰 사용자들은 앞으로 구글 크롬을 통해 서클 투 서치 기능을 일부 사용할 수 있을 것으로 보이며, 애플에서 자체적인 유사 기능을 출시할지도 기대된다.
-
'GTA 6' 출시 일정 변경! 2025년 가을 발매 확정테이크투 인터랙티브는 'GTA 6' 출시 일정을 2025년 가을로 확정했다고 발표했다. 이에 따라 'GTA 6'은 2025년 휴일시장에서 큰 성공을 거둘 것으로 기대된다. 테이크투 인터랙티브 CEO 슈트라우스 젤닉은 "2025 회계연도에 긍정적인 모멘텀을 유지하며 순수 예약액 55억 5천만~56억 5천만 달러를 달성할 것으로 예상한다"고 전했다. 그는 또한 "로스터크 게임즈는 2025년 'GTA 6' 출시 일정을 2025년 가을로 앞당겼다"며, "로스터크 게임즈가 최고의 엔터테인먼트 경험을 제공할 것이라고 확신하며, 게임의 상업적 영향에 대한 기대치는 계속 높아지고 있다"고 말했다. 'GTA 6' 출시는 아직 1년 이상 남았지만, 팬들의 열기는 이미 식지 않고 있다. 테이크투 인터랙티브는 최근 실적 보고서에서 'GTA 5'가 지난 분기 동안 500만 장 추가 판매된다고 밝혔다. 이로써 'GTA 5'의 전 세계 누적 판매량은 2억 장에 달했다. 'GTA 6' 기대감은 'GTA 5'와 'GTA 온라인' 이용자 증가에도 영향을 미쳤다. 테이크투 인터랙티브는 2024년 3월 31일 마감 2024 회계연도 'GTA 5'와 'GTA 온라인' 이용자 규모가 각각 35%, 23% 증가했다고 밝혔다. 또한 로스터크 게임즈의 프리미엄 구독 서비스 'GTA+'도 지속적으로 성장했다. 4분기 'GTA+' 회원 수는 전년 동기 대비 거의 두 배 증가했다. 'GTA 5'의 인기는 스트리밍 플랫폼에서도 확인할 수 있다. StreamHatchet에 따르면 'GTA 5'는 모든 플랫폼에서 가장 많이 시청되는 비디오 게임으로 다시 한번 1위 자리를 차지했다. 스트림해치트는 이러한 성공을 게임의 롤플레잉 커뮤니티에 기인한다고 분석했다. 'GTA 6' 출시는 비디오 게임 업계 전체에 큰 영향을 미칠 것으로 예상된다. 'GTA 6'은 그래픽, 스토리, 게임플레이 등 모든 면에서 기존 게임을 뛰어넘는 작품이 될 것으로 기대된다.
-
유튜브, 인공지능 퀴즈 기능 출시! 학습 영상 더욱 즐겁게구글은 I/O 2024 개발자 행사에서 유튜브 교육 영상에 AI 기반 퀴즈 기능을 추가한다고 발표했다. 이 기능은 새로운 대화형 AI 도구를 사용하여 사용자가 교육 영상을 보는 동안 질문을 하고, 설명을 받고, 퀴즈를 풀 수 있도록 지원한다. 구글은 제미니 모델의 긴 컨텍스트 처리 능력 덕분에 강의나 세미나와 같은 긴 교육 영상에서도 이 기능을 사용할 수 있다고 밝혔다. 이 새로운 기능은 미국 일부 안드로이드 사용자에게 선보여지고 있다. AI 도구 활용 방법 - 영상 요약 요청: AI 도구에게 영상을 요약하거나 중요한 내용을 설명해달라고 요청할 수 있다. - 퀴즈 풀기: 지식을 확인하기 위해 AI 도구에게 주제에 대한 퀴즈를 요청할 수 있다. AI 도구는 객관식 문제를 제공한다. 유튜브는 이미 교육 콘텐츠의 중심지로 자리 잡았으며, 이번 새로운 기능은 학습자들에게 더욱 개인화되고 인터랙티브한 경험을 제공할 것으로 기대된다. LearnLM 출시 구글은 이번 행사에서 제미니를 기반으로 학습에 최적화된 새로운 모델 패밀리인 LearnLM을 출시했다. LearnLM은 학습자들이 다양한 교육 콘텐츠를 보다 효과적으로 이해하고 기억하도록 돕는 데 중점을 둔다. LearnLM은 다음과 같은 기능을 제공한다. - 핵심 내용 추출: 영상이나 텍스트에서 핵심 내용을 자동으로 추출하여 학습자들이 중요한 정보를 빠르게 파악할 수 있도록 돕는다. - 개념 설명: 학습자들이 이해하기 어려운 개념을 명확하고 간결하게 설명한다. - 연습 문제 제공: 학습 내용을 巩固할 수 있도록 연습 문제를 제공한다. LearnLM은 아직 초기 단계이지만, 앞으로 학습 분야에 큰 영향을 미칠 것으로 기대된다.
-
구글, AI로 숙제도 해줄 수 있어? 똑똑한 서클 투 서치 업데이트!인공지능이 아이들의 숙제를 해주는 시대가 온다. 구글은 I/O 2024 개발자 컨퍼런스에서 AI 기반 서클 투 서치(Circle to Search) 기능 업데이트를 발표했다. 이 기능은 안드로이드 사용자가 손짓만으로 즉각적인 답변을 얻을 수 있도록 하는 것으로, 이제는 물리학 및 수학 문제와 같은 더 복잡한 문제도 해결할 수 있다. AI 탑재 원 터치 검색으로 숙제도 척척! 이번 업데이트는 구글의 새로운 학습용 인공지능 모델 가족인 LearnLM 덕분에 가능해졌다. 서클 투 서치는 처음 삼성 언팩 이벤트에서 선보였으며, 1월부터 일부 삼성 및 구글 픽셀 기기에 출시되었다. 이 기능은 사용자가 휴대폰 어디에서나 손짓, 강조, 낙서, 탭과 같은 간단한 동작으로 구글 검색에 자연스럽게 참여할 수 있도록 설계되었다. 또한 AI 시대에 다른 정보 검색 도구보다 구글 검색을 사용하도록 유도하는 방법이기도 하다. 심화 수학 문제까지 해결, 단계별 안내 제공 업데이트된 서클 투 서치는 지원되는 안드로이드 휴대폰 및 태블릿에서 아이들의 숙제를 직접 돕는 기능을 제공한다. 어려운 문제에 부딪혔을 때, 단계별 안내를 통해 문제 해결 과정을 안내하는 기능을 이용할 수 있다. 구글은 이 기능이 상징적인 공식, 다이어그램, 그래프 등을 포함한 다양한 문제를 해결할 수 있다고 말했다. 올해 초 출시 이후 서클 투 서치는 더 많은 삼성 및 구글 픽셀 기기에 확대되어 총 1억 대 이상의 기기에 지원되고 있다. 구글은 연말까지 이 수를 두 배로 늘릴 계획이다.
-
구글 검색, 텍스트뿐 아니라 영상 검색까지 가능한 AI 혁신!구글은 핵심 사업 영역인 검색을 대대적으로 개편한다. 구글은 AI 개발자 컨퍼런스인 I/O에서 텍스트 뿐 아니라 영상 검색까지 가능한 새로운 인공지능 기능을 발표했다. 이번 업데이트를 통해 구글은 검색을 단순히 웹사이트 찾는 도구 이상으로 발전시키고자 한다. 구글 검색 부문 총괄 리즈 레이드(Liz Reid) 부사장은 블로그 포스트에서 "생성형 인공지능과 함께 구글 검색은 당신이 상상할 수 있는 것보다 더 많은 일을 할 수 있다"고 밝혔다. "연구, 계획, 아이디어 발굴 등 사용자가 궁금한 모든 것과 해야 할 일을 물어볼 수 있으며, 구글이 검색 과정을 도와줄 것"이라고 덧붙였다. 최근 몇 년간 오픈AI의 챗GPT 출시 등 생성형 인공지능 기술이 급속히 발전함에 따라 구글 검색 역시 변화하고 있다. 챗GPT, 앤트로픽, 퍼플렉시티, 오픈AI의 GPT-4를 활용하는 마이크로소프트 빙 등 다양한 인공지능 기반 앱과 서비스가 등장하며 단순히 링크만 제공하는 구글 검색에 도전장을 내밀었다. 이러한 흐름에 맞춰 구글은 새로운 기능을 통해 차별화를 꾀하고 있다. AI 개요: 검색 결과 상단에 요약 답변 제공 오늘부터 미국에서 대부분의 검색 질문에 대한 완전한 인공지능 생성 답변이 검색 결과 페이지 상단에 표시된다. 구글은 이 기능을 2023년 I/O에서 처음 선보였지만, 당시에는 Search Labs 가입자만 미리 이용할 수 있었다. Search Labs은 일반 출시 앞서 새로운 기능을 체험할 수 있는 플랫폼이다. 이번 업데이트를 통해 수억 명의 미국 사용자가 AI 개요 기능을 이용할 수 있게 됐으며, 연말까지 10억 명 이상의 전 세계 사용자들이 이용할 수 있게 될 예정이다. 레이다 부사장은 Search Labs를 통해 이 기능을 수십억 번 이용했다고 밝혔다. 또한 AI 생성 답변에 포함된 링크는 일반 웹사이트 목록에 나타나는 링크보다 더 많이 클릭된다고 덧붙였다. 이는 게시자들이 우려해왔던 부분이다. 레이다 부사장은 "이 기능을 확대하면서도 게시자와 크리에이터에게 가치 있는 트래픽 유도에 계속 집중할 것"이라고 말했다. AI 구성 결과: 검색 결과 정리 및 아이디어 발굴 미국에서 식당, 레시피, 영화, 음악, 책, 호텔, 쇼핑 등 특정 검색어를 입력하면 AI를 활용하여 정리된 새로운 검색 결과 페이지가 제공된다. 레이다 부사장은 블로그 게시물에서 "사용자가 아이디어를 찾을 때 검색은 생성형 인공지능을 활용하여 사용자와 함께 브레인스토밍을 하고 탐색하기 쉬운 AI 구성 결과 페이지를 만들 것"이라고 설명했다. 복합 검색: 단일 질문으로 복잡한 답변 얻기 Search Labs 가입자는 단일 질문으로 복잡한 질문을 하고 한 페이지에서 답변을 얻을 수 있다. 구글 블로그 게시물에 나와 있는 예처럼 "보스턴 최고의 요가 또는 필라테스 스튜디오를 찾고 Beacon Hill에서 소개 제안 및 도보 시간에 대한 세부 정보를 보여주세요."라고 하면, 이에 대한 응답으로 구글은 보스턴의 비컨 힐 지역 근처에 있는 가장 높은 등급의 요가 및 필라테스 스튜디오를 표시하고 쉽게 탐색할 수 있도록 지도에 표시하기도 한다. 또한 Search Labs에 가입자들이 "그룹을 위한 준비하기 쉬운 3일 식사 계획 만들기"와 같은 질문을 할 수 있도록 하고 AI 생성 계획의 개별 결과를 다른 것으로 교체할 수 있도록 할 수도 있다. Search Labs: 미래 검색 기능 미리 체험 마지막으로 Search Labs 가입자는 텍스트나 이미지 대신 동영상을 검색 질문으로 활용할 수 있다. 예를 들어 중고품 가게에서 구입한 레코드 플레이어가 작동하지 않고 바늘이 달린 금속 부품이 예상치 못하게 움직이는 경우, 사용자는 레코드 플레이어 작동하는 모습을 촬영한 영상을 검색 질문으로 활용할 수 있다. 레이드 부사장은 블로그 포스트에서 "영상 검색을 통해 문제를 설명하는 데 필요한 단어를 찾는 시간과 번거로움을 줄일 수 있으며 단계별 안내와 문제 해결을 위한 리소스를 포함하는 AI 개요를 제공받을 수 있다"고 설명했다. 구글은 인공지능 기술을 활용하여 검색 기능을 크게 개선하고 있다. AI 개요, AI 구성 결과, 복합 검색, Search Labs 등 다양한 기능을 통해 사용자들에게 더욱 편리하고 효율적인 검색 경험을 제공하고자 한다. 구글 검색의 인공지능 혁신은 앞으로 더욱 빠르게 진행될 것으로 예상된다.
-
구글 I/O 2024: 인공지능 돌풍! 제미나이 업그레이드와 혁신 기능 공개올해 구글 I/O 컨퍼런스는 인공지능 관련 발표로 가득 찼다. 예상대로 구글은 자사의 제미나이 인공지능 모델과 워크스페이스, 크롬 등 앱과의 연동 방식에 중점을 두었다. 구글 렌즈 영상 검색 기능 강화 기존 구글 렌즈는 이미지를 기반으로 검색이 가능했지만, 이제는 영상 검색 기능까지 추가되었다. 검색하려는 영상을 촬영하여 질문을 하면 구글 인공지능이 웹에서 관련 답변을 찾아낸다. 더욱 빠르고 강력해진 제미나이1.5 플래시 구글은 새로운 인공지능 모델인 제미나이1.5 플래시(Gemini 1.5 Flash)를 출시했다. 이 새로운 멀티모달 모델은 제미나이1.5 프로와 동등한 성능을 가지지만, "특정 분야, 고빈도, 저지연 작업"에 최적화되어 더 빠른 응답 생성이 가능하다. 또한 구글은 제미나이1.5의 번역, 추론, 코딩 기능을 향상시켰으며, 맥락 창 크기를 100만 토큰에서 200만 토큰으로 늘렸다. 워크스페이스에 제미나이도입 구글은 최신 메인스트림 언어 모델 제미나이1.5 프로를 문서, 스프레드시트, 프레젠테이션, 드라이브, 이메일에 통합했다. 다음 달 유료 구독자들에게 제공되는 이 기능은 워크스페이스 내에서 다목적 기능의 도우미 역할을 할 것이다. 사용자의 드라이브 콘텐츠 어디에서든 정보를 가져와 현재 보고 있는 문서 내용을 바탕으로 이메일을 작성하거나 나중에 답변할 이메일을 알려주는 등의 기능을 수행한다. 일부 초기 테스터들은 이미 이 기능을 사용하고 있으며, 구글은 다음 달 모든 유료 제미나이구독자들에게 제공할 예정이다. 프로젝트 아스트라: 구글의 야심찬 인공지능 비서 프로젝트 아스트라(Project Astra)는 사용자의 기기를 통해 보고 있는 것을 이해하고 기억하며 사용자 대신 작업을 수행하는 모든 기능을 갖춘 가상 비서가 되기 위한 구글의 계획이다. 올해 I/O 컨퍼런스에서 가장 인상적인 데모 중 많은 부분을 지원하는 프로젝트 아스트라는 단순히 대화만 할 수 있는 것이 아니라 실제로 사용자를 대신하여 작업을 수행할 수 있는 진정한 인공지능 에이전트가 되는 것을 목표로 한다. Veo: 영상 제작자 위한 혁신 도구 구글은 텍스트, 이미지, 영상 기반 프롬프트를 기반으로 1080p 영상을 생성할 수 있는 새로운 생성 인공지능 모델인 Veo를 선보였다. 영상은 항공 촬영이나 타임랩스와 같은 다양한 스타일로 제작할 수 있으며, 추가 프롬프트를 통해 미세 조정이 가능하다. 구글은 이미 일부 제작자들에게 Veo를 제공하며 영화에 사용하기 위해 할리우드에도 홍보하고 있다. Gems: 맞춤형 채팅봇 제작 툴 구글은 사용자가 제미니에게 지시를 제공하여 원하는 방식으로 응답하고 특정 분야에 특화된 맞춤형 채팅봇을 만들 수 있는 Gems라는 툴을 출시했다. 예를 들어, 매일 동기 부여와 달리기 계획을 제공하는 긍정적이고 적극적인 달리기 코치가 되도록 설정할 수 있다 (물론 제미나이 고급(Advanced) 구독자만 가능하다). 실시간 음성 대화 기능 향상된 제미나이 Live 새로운 제미나이 Live 기능은 제미니와의 음성 대화를 보다 자연스럽게 만든다. 챗봇의 목소리에 더 많은 개성이 부여되고, 사용자는 중간에 말을 끼거나 스마트폰 카메라를 통해 주변을 보여주면서 실시간 정보를 제공하도록 요청할 수 있다. 또한 제미나이는 Google Calendar, Tasks 및 Keep와의 새로운 통합을 통해 멀티모달 기능을 사용하여 정보를 업데이트하거나 가져올 수 있다. 수학 문제 도우미 서클 투 서치 안드로이드 휴대폰이나 태블릿 사용자는 이제 화면에서 수학 문제를 원으로 둘러싸고 풀이 방법을 얻을 수 있다. 구글 인공지능은 문제를 해결해주지는 않지만 (학생들이 숙제를 속이는 데 도움이 되지 않도록), 문제를 완료하기 쉽도록 단계별로 안내해 줄 것이다. AI 검색 개편된 Google 검색 구글은 이전에 "Search Generative Experience"라고 불렸던 "AI 오버뷰(AI Overviews)"를 미국 모든 사용자에게 제공할 예정이다. 이제 "전문화된" 제미나이 모델은 웹에서 요약된 답변으로 결과 페이지를 디자인하고 채운다 (Perplexity 또는 Arc Search와 같은 AI 검색 도구에서 볼 수 있는 것과 유사). 안드로이드 스캠 방지 기능 구글은 안드로이드 휴대폰이 일반적인 사기꾼 대화 패턴과 같은 위험 신호를 찾아 실시간 경고를 띄워 사기 전화를 피하도록 돕는다고 말했다. 이 기능에 대한 자세한 내용은 올해 말에 발표될 예정이다. AI 질문 응답 기능 강화된 안드로이드 구글은 곧 사용자가 화면에 표시된 영상에 대해 질문을 할 수 있도록 하고, 제미니는 자동 자막을 기반으로 답변할 것이라고 발표했다. 유료 제미나이 고급 사용자의 경우 PDF 파일을 수집하여 정보를 제공할 수도 있다. 이러한 기능과 안드로이드용 제미니의 다른 멀티모달 업데이트는 향후 몇 달에 걸쳐 출시될 예정이다. 크롬 내장 AI 도우미 구글은 데스크톱용 크롬에 제미니의 가벼운 버전인 제미나이 나노를 추가한다고 발표했다. 이 내장된 도우미는 온디바이스 인공지능을 사용하여 사용자가 소셜 미디어 게시물, 제품 리뷰 등을 위한 텍스트를 직접 크롬에서 생성하도록 돕는다. SynthID 인공지능 워터마킹 업그레이드 구글은 SynthID가 할 수 있는 작업을 확장한다고 발표했다. 이제 SynthID는 새로운 Veo 비디오 제작 도구를 사용하여 만든 콘텐츠에 워터마킹을 포함하고 AI 생성 비디오를 감지할 수도 있다. 결론 구글 I/O 2024는 인공지능 기술의 발전을 보여주는 흥미로운 행사였다. 제미나이 모델의 업그레이드, 새로운 제품 및 기능 출시는 향후 몇 년 동안 인공지능 기술의 발전 방향에 큰 영향을 미칠 것으로 예상된다.
-
메타, 카메라 장착 AI 헤드폰 개발 검토? "카메라버즈"라는 흥미로운 프로젝트메타가 인공지능(AI) 분야 선두 기업으로 자리매김하기 위한 새로운 하드웨어 프로젝트를 검토하고 있는 것으로 보인다. 최근 정보기술 매체인 '디 인포메이션'에 따르면 메타는 AI 기능을 탑재한 헤드폰 디자인을 초기 단계에서 검토하고 있다. 이 프로젝트명은 "카메라버즈(Camerabuds)"로 추측된다. 헤드폰 또는 이어버드 형태를 고려 중이지만 모두 사용자 주변 환경을 인식하는 데 도움이 되는 바깥쪽 카메라 두 개를 장착할 예정이다. 이 카메라를 통해 실시간 AI 기능을 구동할 수 있다. 이는 메타가 스마트 안경에 적용한 멀티모달 AI 기능과 유사한 방식으로 작동할 것으로 예상된다. 개발 여부 및 난관 하지만 이 프로젝트가 실제로 개발 단계로 진행될지 여부는 아직 불투명하다. 메타는 현재까지 언론의 취재 요청에 즉각적인 답변을 하지 않았다. 마크 저커버그 CEO는 "여러 가지 디자인 후보를 검토했지만" 현재까지 만족스러운 디자인을 찾지 못했다는 보도가 있다. 또한 내부적으로는 배터리 수명, 열 문제와 같은 엔지니어링 문제 외에도 카메라 장착 웨어러블이 안고 있는 수많은 개인정보 보호 문제에 대한 우려도 제기되고 있다. 긴 머리카락을 가진 사용자의 경우 머리카락이 카메라 시야를 가려 사용에 불편함이 있을 수도 있다. 과거 실적과 미래 전망 '디 인포메이션'은 메타의 하드웨어 프로젝트 실적이 다소 엇갈린 편이라고 지적한다. 메타는 2022년 스마트 스피커 라인업인 포탈을 단종했으며 오랜 기간 루머가 됐던 카메라 장착 스마트워치 개발도 취소했다. 하지만 최근 출시된 메타 AI가 탑재된 레이밴 브랜드 스마트 안경은 긍정적인 평가를 받고 있다. 메타는 판매량을 공개하지 않았지만 저커버그 CEO는 "높은 수요"가 있었으며 1세대 스마트 안경에 비해 사용자 참여도가 더 높고 지속적이라고 밝혔다. 메타 AI를 또 다른 하드웨어에 탑재하는 것은 다른 선두 AI 기업과의 경쟁에서 앞서 나서려는 메타의 야심과도 일맥상통한다. 래빗의 R1과 휴매인 AI 핀과 같은 AI 전용 하드웨어는 지금까지 실망스러운 결과를 보여주고 있다. 하지만 메타는 최신 AI 기능을 사람들이 이미 익숙하게 사용하는 헤드폰과 같은 기기에 탑재함으로써 더 쉽게 판매 실적을 올릴 수 있기를 기대하고 있는 것으로 보인다.
-
구글 I/O 하루 전, 구글 새 카메라 AI 기능 티저 공개!구글은 I/O 개발자 컨퍼런스 개최 하루 전, 흥미로운 새 AI 기능 티저 영상을 공개했다. X 동영상에 공개된 영상에는 카메라가 I/O 기조연설 무대를 비추는 모습이 담겨 있으며, 영상을 촬영하는 사람이 "여기서 무슨 일이 일어나고 있을까요?"라고 질문한다. One more day until #GoogleIO! We’re feeling ????. See you tomorrow for the latest news about AI, Search and more. pic.twitter.com/QiS1G8GBf9 — Google (@Google) May 13, 2024 이에 대해 AI 음성이 "대규모 행사, 혹은 컨퍼런스나 프레젠테이션 준비를 하는 것 같습니다"라고 답변하며, "IO"라는 문구가 구글 개발자 컨퍼런스와 관련이 있다고 언급하고 "인공지능 분야의 새로운 발전"을 이야기한다. 두 사람의 대화는 화면에 텍스트 형태로 표시된다. 카메라 통해 실시간 정보 인식하는 AI기능 선보여 이 기능의 정확한 작동 방식은 아직 밝혀지지 않았지만, 구글의 카메라 기반 검색 기능인 구글 렌즈와 유사한 면모를 보인다. 티저 영상에서 보여지는 기능은 실시간으로 작동하며, 음성 명령에 반응하는 모습은 메타의 스마트 안경에 탑재된 멀티모달 AI와 흡사하다. 또한, 이 데모 영상이 픽셀 기기에서 실행되는 것을 볼 수 있어, 구글이 새로운 AI 기능을 픽셀 라인업에 먼저 출시할 가능성이 높아진다. I/O 기조연설 하루 전에 새 기능을 공개하는 것은 구글에게는 다소 이례적인 행보이지만, 오픈AI가 라이브 이벤트에서 자사의 새로운 GPT-4o 모델을 선보인 직후 구글이 이 영상을 공개한 것은 우연의 일치가 아닐 가능성이 높다. 구글이 I/O에서 어떤 새로운 기능을 선보일지는 궁금하지만, 이제 얼마 남지 않았다. 구글 I/O는 5월 14일(현지시간) 개최된다.
-
애플, 자체 칩 탑재된 데이터센터로 인공지능 강화인공지능(AI) 기술 경쟁이 치열해지는 가운데, 애플도 새로운 인공지능 기능 도입에 적극적으로 나섰다. 최근 블룸버그 보도에 따르면 애플은 일부 인공지능 기능을 자체 개발한 칩을 탑재한 데이터센터에서 처리할 계획이다. 이 전략은 외부 업체의 고가의 AI 칩 사용을 피하고, 더 빠른 처리 속도와 개인정보 보호 강화를 위한 것이다. 특히 애플은 최신 Mac 프로세서인 M2 울트라 칩을 데이터센터 서버용으로 활용할 것으로 알려졌다. 이중 전략: 로컬 AI와 원격 처리 애플은 인공지능 기능을 두 가지 방법으로 제공할 예정이다. 간단한 기능은 아이폰, 아이패드, 맥 등 사용자 기기에서 로컬로 처리될 것이며, 더 복잡한 작업은 원격 데이터센터로 넘겨 처리될 수 있다. 최근 출시된 M4 칩은 뉴럴엔진 성능을 크게 향상시켰으며, 이는 로컬 AI 처리 능력 강화로 이어질 것으로 예상된다. 하지만 휴대폰이나 데스크톱의 성능 한계를 넘어서는 작업은 데이터센터의 강력한 컴퓨팅 파워를 활용하게 된다. 아직 베일 속의 인공지능 기능 애플은 아직 iOS 18, 맥OS 15 등 새로운 운영체제에 포함될 구체적인 인공지능 기능을 공개하지 않았다. 하지만 전문가들은 이메일, 웹페이지, 문자 메시지 요약, 이미지 객체 제거 및 추가, 음성 명령을 통한 사진 편집 등의 기능이 도입될 것으로 예상하고 있다. 또한 일부 생성형 인공지능 작업은 구글 제미니에 아웃소싱될 가능성이 있다. 하지만 시리의 앞날은 여전히 불투명하다.
-
오픈AI, 구글 I/O 직전 ChatGPT 기반 검색엔진 발표 예정!오픈AI가 구글 I/O 개최 직전 ChatGPT 기반 검색엔진 발표를 준비하고 있다는 소식이 전해졌다. 이전에는 5월 9일(이하, 현지 시각) 출시 예상이었지만, 오픈AI는 구글의 중요한 발표를 앞두고 더 큰 화제를 만들기 위해 13일로 출시 날짜를 변경한 것으로 보인다. 구글 I/O 앞두고 오픈AI, 챗지피티 기반 검색엔진 출시 예정 구글 I/O는 5월 14일부터 시작되며, AI는 이번 행사의 주요 주제 중 하나가 될 것으로 예상된다. 로이터 통신(Reuters)은 오픈AI가 구글의 주목을 빼앗기 위해 13일 ChatGPT 기반 검색엔진 출시를 계획하고 있다고 보도했다. 오픈AI는 아직 이 정보를 공식적으로 확인하지 않았지만, 출시 날짜가 변경될 가능성도 있다. 또한 계획을 비밀리에 유지하고 예상 날짜에 갑자기 새로운 검색엔진을 공개할 가능성도 있다. 챗GPT 기반 검색엔진, 구글 검색에 맞서 경쟁 챗GPT 기반 검색 제품은 구글의 Search Generative Experience와 경쟁할 것으로 예상된다. Search Generative Experience는 다양한 웹 소스의 결과를 종합하여 사용자의 검색 질문에 대한 문맥적 답변을 제공한다. 이 서비스는 마이크로소프트의 Bing 검색을 일부 활용할 것으로 예상된다.